In this paper, we introduce four main novelties: First, we present a new way of handling the topology problem of normalizing flows. Second, we describe a technique to enforce certain classes of boundary conditions onto normalizing flows. Third, we introduce the I-Spline bijection, which, similar to previous work, leverages splines but, in contrast to those works, can be made arbitrarily often differentiable. And finally, we use these techniques to create Waveflow, an Ansatz for the one-space-dimensional multi-particle fermionic wave functions in real space based on normalizing flows, that can be efficiently trained with Variational Quantum Monte Carlo without the need for MCMC nor estimation of a normalization constant. To enforce the necessary anti-symmetry of fermionic wave functions, we train the normalizing flow only on the fundamental domain of the permutation group, which effectively reduces it to a boundary value problem.
translated by 谷歌翻译
由于单峰生物识别系统的不稳定性和局限性,多模式系统吸引了研究人员的关注。但是,如何利用不同方式之间的独立和互补信息仍然是一个关键和具有挑战性的问题。在本文中,我们提出了一种基于指纹和手指静脉的多模式融合识别算法(指纹手指静脉 - 通道 - 通道空间注意融合模块,FPV-CSAFM)。具体而言,对于每对指纹和手指静脉图像,我们首先提出一个简单有效的卷积神经网络(CNN)来提取特征。然后,我们构建一个多模式融合模块(通道空间注意融合模块,CSAFM),以完全融合指纹和指纹之间的互补信息。与现有的融合策略不同,我们的融合方法可以根据渠道和空间维度不同模态的重要性动态调整融合权重,以便更好地将信息之间的信息更好地结合在一起,并提高整体识别性能。为了评估我们方法的性能,我们在多个公共数据集上进行了一系列实验。实验结果表明,所提出的FPV-CSAFM基于指纹和手指静脉在三个多模式数据集上实现了出色的识别性能。
translated by 谷歌翻译
Federated学习(FL)最近作为一种增强隐私的工具而受到了极大的关注,可以由多个参与者共同培训机器学习模型。FL的先前工作主要研究了如何在模型培训期间保护标签隐私。但是,FL中的模型评估也可能导致私人标签信息的潜在泄漏。在这项工作中,我们提出了一种评估算法,该算法可以准确计算使用FL中的标签差异隐私(DP)时,可以准确计算广泛使用的AUC(曲线下)度量。通过广泛的实验,我们显示我们的算法可以计算与地面真相相比的准确AUC。
translated by 谷歌翻译
面部聚类是使用大型未标记的面部图像扩展面部识别系统的一种有希望的方法。识别我们称之为硬群的小或稀疏的面部图像簇仍然具有挑战性,这是由簇的异质性,\ ie,大小和稀疏性的高变化引起的。因此,使用均匀阈值(识别簇)的常规方式通常会导致对应该属于硬群的样品的可怕分类。我们通过利用样品的邻居信息并以概率方式推断(样本的)群集成员来解决这个问题。我们介绍了两个新型模块,分别是基于邻域扩散的密度(NDDE)和基于过渡概率的距离(TPDI),我们可以简单地将标准密度峰值聚类算法应用于均匀的阈值。我们对多个基准测试的实验表明,每个模块都会有助于我们方法的最终性能,并通过将其纳入其他高级面部聚类方法中,这两个模块可以将这些方法的性能提高到新的最先进。代码可在以下网址获得:https://github.com/echoanran/on-mitigating-hard-clusters。
translated by 谷歌翻译
差异化私有(DP)数据发布是一种有前途的技术,可以在不损害数据主体的隐私而传播数据。但是,大多数先前的工作都集中在单一方拥有所有数据的方案上。在本文中,我们专注于多方设置,其中不同的利益相关者拥有属于同一数据主体的属性集合。在线性回归的上下文中,允许各方在完全数据上训练模型,而无需推断个人的私人属性或身份,我们首先直接应用高斯机制并表明其具有小的特征值问题。我们进一步提出了我们的新方法,并证明其渐近地收敛到随着数据集大小增加的最佳(非私有)解决方案。我们通过对人工和现实世界数据集的实验来证实理论结果。
translated by 谷歌翻译
多源域的适应性已深入研究。特定域固有的特征的分布变化会导致负转移降低模型的一般性,从而看不见任务。在联合学习(FL)中,为了利用来自不同领域的知识,共享学习的模型参数以训练全球模型。但是,FL的数据机密性阻碍了需要先验了解不同域数据的传统领域适应方法的有效性。为此,我们提出了一种称为联合知识一致性(FEDKA)的新联合领域生成方法。 FEDKA利用全局工作区中的特征分布匹配,以便全局模型可以在未知域数据的约束下学习域不变的客户端功能。设计了一种联合投票机制,以基于促进全球模型微调的客户的共识来生成目标域伪标签。我们进行了广泛的实验,包括消融研究,以评估拟议方法在图像分类任务和基于具有不同复杂性的模型体系结构的文本分类任务中的有效性。经验结果表明,FEDKA可以分别在数字五和办公室-Caltech10中实现8.8%和3.5%的绩效增长,并且在亚马逊审查中获得了0.7%的增长,并且培训数据极为有限。
translated by 谷歌翻译
我们NN的机制与最新的MIT脑可塑性研究的结果非常一致,研究人员发现,随着突触的增强,相邻的突触会自动削弱自身以补偿。关于这种机制的重要性,斯坦福大学Luo博士的团队表示,关于突触形成的树突形态发生的竞争至关重要。我们试图通过模型在关键时期关闭时通过模型与以前的研究相反,对大脑可塑性的失败机理进行研究。尖端成像和遗传工具在其实验研究中结合在一起,而我们的研究更加重视新NN的模型,推导和模拟。在测试中,证明树突在一定程度上的产生是通过突触形成遏制的。在研究中还考虑了电流和助记符脑可塑性以及突触作用范围。此外,新NN的框架基于当前的梯度信息和助记符负和阳性梯度信息突触形成。助记符梯度信息需要考虑被遗忘的记忆 - 腹部突触形成记忆持续性因子(包括阴性和正面记忆 - 即迄今且相对较低的梯度信息)。我们发现,像吞噬作用因子一样,星形细胞记忆持续性因子会产生减少突触局部积累的作用。无论梯度更新如何,仅考虑突触吞噬作用的PNN,以及是否取消了不同变量和突触位置的突触吞噬作用,是否由相应时间间隔的相关系数确定,证明简单且有效。
translated by 谷歌翻译
近年来,随着越来越复杂的网络钓鱼活动,网络钓鱼电子邮件吸引人们使用更合法的个人背景。为了解决这个问题,而不是基于传统的启发式算法,而是自适应检测系统,例如自然语言处理(NLP)的能力方法对于理解网络钓鱼文本表示至关重要。然而,围绕网络钓鱼数据收集的问题可能涵盖机密信息阻碍了模型学习的有效性。我们提出了一个称为联邦网络钓鱼碗(FEDPB)的去中心化的网络钓鱼电子邮件检测框架,该框架促进了与隐私的合作网络钓鱼检测。特别是,我们通过联合学习(FL)设计了一种知识共享机制。使用长短期内存(LSTM)进行网络钓鱼检测,该框架通过在客户端共享一个全局词嵌入矩阵来适应,每个客户端都使用非IID数据运行其本地模型。我们收集了最新的网络钓鱼样本,以使用不同的客户数量和数据分布来研究拟议方法的有效性。结果表明,FEDPB可以通过集中式网络钓鱼探测器获得竞争性能,而佛罗里达州的各种案例的预测准确性为83%。
translated by 谷歌翻译
本文回顾了关于压缩视频质量增强质量的第一个NTIRE挑战,重点是拟议的方法和结果。在此挑战中,采用了新的大型不同视频(LDV)数据集。挑战有三个曲目。Track 1和2的目标是增强HEVC在固定QP上压缩的视频,而Track 3旨在增强X265压缩的视频,以固定的位速率压缩。此外,轨道1和3的质量提高了提高保真度(PSNR)的目标,以及提高感知质量的2个目标。这三个曲目完全吸引了482个注册。在测试阶段,分别提交了12个团队,8支球队和11支球队,分别提交了轨道1、2和3的最终结果。拟议的方法和解决方案衡量视频质量增强的最先进。挑战的首页:https://github.com/renyang-home/ntire21_venh
translated by 谷歌翻译
Learning with noisy-labels has become an important research topic in computer vision where state-of-the-art (SOTA) methods explore: 1) prediction disagreement with co-teaching strategy that updates two models when they disagree on the prediction of training samples; and 2) sample selection to divide the training set into clean and noisy sets based on small training loss. However, the quick convergence of co-teaching models to select the same clean subsets combined with relatively fast overfitting of noisy labels may induce the wrong selection of noisy label samples as clean, leading to an inevitable confirmation bias that damages accuracy. In this paper, we introduce our noisy-label learning approach, called Asymmetric Co-teaching (AsyCo), which introduces novel prediction disagreement that produces more consistent divergent results of the co-teaching models, and a new sample selection approach that does not require small-loss assumption to enable a better robustness to confirmation bias than previous methods. More specifically, the new prediction disagreement is achieved with the use of different training strategies, where one model is trained with multi-class learning and the other with multi-label learning. Also, the new sample selection is based on multi-view consensus, which uses the label views from training labels and model predictions to divide the training set into clean and noisy for training the multi-class model and to re-label the training samples with multiple top-ranked labels for training the multi-label model. Extensive experiments on synthetic and real-world noisy-label datasets show that AsyCo improves over current SOTA methods.
translated by 谷歌翻译